台積電、聯發科等逾50家大廠力拱 AI晶片 - 股票

Table of Contents

※ 引述《kaube (轉眼之間)》之銘言:
: 1.原文連結:
: 台積電、聯發科等逾50家大廠力拱 AI晶片聯盟正式成立
: http://bit.ly/2FMEquy
: 2.原文內容:
: 為協助晶片設計業者掌握人工智慧(AI)晶片彈性多工的自主設計能力,同時因應製造及封
: 測業者對於少量多樣、快速產製的技術缺口,經濟部整合產官學研資源推動「台灣人工智
: 慧晶片聯盟」(AI on Chip Taiwan Alliance;AITA)。
: 目前聯盟成員包括台積電、聯電、聯發科、瑞昱、南亞科、廣達、鴻海、華碩及台灣微軟
: (Microsoft)等56家大廠,合力共組AI生態鏈,目標讓業者能降低10倍的AI晶片研發費用
: 、縮短6個月以上的開發時程,協助台廠成為全球AI晶片產業的領航者,同時AITA聯盟也
: 將打造具備多工、彈性、低耗電的新興AI晶片架構,使台灣半導體產業得以彎道超車,確
: 保台灣AI晶片位居全球領先地位。
: 經濟部部長沈榮津表示,全球AI晶片總體市場產值預估在2022年可達到新台幣5,000億元
: ,台灣有半導體、ICT等強項,更是全球大廠信任的夥伴 這些優異條件奠定了台灣具備發
: 展裝置端AI晶片的優勢。擔任AITA聯盟會長的鈺創董事長盧超群亦表示,AI發展中,最關
: 鍵且可著力的部分正是台灣所擅長的半導體產業,將半導體技術跟AI整合才能持續與國際
: 並駕齊驅。
: 工研院院長劉文雄指出,AI是市場的走向,半導體則是台灣的強項,所以兩者的結合就是
: 台灣未來發展的新藍海。ATIA目標有三個,第一,「產業要完整鏈結」,指硬體端與軟體
: 端的發展要能整合,且從設計到製造等可應用在產業、生活上達到目的;第二,「必須發
: 展關建技術」,包括演算法、半導體等技術,兩者如何能結合,就是關建的主要技術;第
: 三,「趕快製造做產品」,這個真的要快,要注意市場的時效性,不要等到產品做出來後
: ,市場也消失,因此錯失世界的商機。
: AITA此次聯手台灣半導體產業協會(TSIA),目前會員包括台積電、聯電、力積電、日月光
: 、矽品、華邦電、力旺、聯發科、瑞昱、神盾、義隆電、聯詠、創意、鴻海、廣達、華碩
: 、台達電,以及台灣微軟、益華(Cadence)等56家國內外半導體與ICT大廠。
: 3.心得/評論:
: 台灣的IC設計業在多樣化的裝置端晶片十分擅長,但在裝置端AI晶片方面,部分廠商面臨
: 光罩價格過高,不適用少量多樣情境;此外,廠商也遭遇缺乏關鍵AI加速器,AI系統整合
: 能力不足的問題。目前全球各國全力發展AI應用,其中晶片會是最關鍵的一環。

目前 AI 晶片
主要還是聚集在 影像辨識 人臉辨識 聲音辨識 之類的算法
當然也有最短路經 關於最佳化之類的東西

這些應用大部分都可以用線性代數去解

例如人臉辨識 早在1987年就提出
https://en.wikipedia.org/wiki/Eigenface

使用的方法是 PCA (主成分分析)
經過證明 PCA 其實就是計算 關聯矩陣(covariance matrix) 的
特徵向量 (eigen vector) 跟 特徵值 (eigen value)

證明在這:
https://www.stat.cmu.edu/~cshalizi/uADA/12/lectures/ch18.pdf

既然是要計算矩陣的 eigen vector/eigen value
就是找出 SVD (singular value decomposition)

SVD 數值運算的方法 OpenCV 是使用 Jacobi method
這部分是可以經由硬體加速運算

還有跟最佳化息息相關的最小平方問題 (Least Squares Problem)
可以用 QR decomposition 去計算

計算 QR decomposition
可以用 Givens rotation matrix, Householder matrix, Gram-Schmidt method

目前 AI硬體可以實作 Givens rotation matrix
具有比較好的數值收斂跟平行處理


另外像是 Cholesky decomposition/LU decomposition
在很多應用上也會使用 像是 AR/VR 的應用上
會用到 Cholesky decomposition
大概是這樣 有錯請指正

--

All Comments

Ula avatarUla2019-07-04
所以大大建議要買哪一檔
Anonymous avatarAnonymous2019-07-08
謝謝補知識 但AI必須讓消費者買單才能使公司獲利
Hardy avatarHardy2019-07-10
科技戰會促使各國往AI集資 後續能否獲利是另一回事
Michael avatarMichael2019-07-13
Ai大國就是中美,兩地應用與法規不同。走美國方案就
G, A吧
Donna avatarDonna2019-07-18
所以就是一些專門做數學運算的晶片嗎?
跟泛用的GPU比較的話 專用晶片有特殊優勢嗎?
Regina avatarRegina2019-07-21
目前可以搞運算的就 CPU GPU DSP
NPU 我不太清楚作用跟架構
Olive avatarOlive2019-07-25
NPU就整合CPU與GPU的新名詞吧
Noah avatarNoah2019-07-25
CPU處理系統(管理記憶體,啟動程式) GPU負責運算
Tracy avatarTracy2019-07-27
就目前的理解 各家的NPU應該是這樣:
Caitlin avatarCaitlin2019-07-27
CPU部分-ARM GUP運算部分-各家研發獨有的IP
現在這個聯盟 是要全力發展運算IP嗎?
Erin avatarErin2019-07-31
我一直以為npu是類神經網路處理器 就一堆模擬腦神經
鏈結的電路 不過這也可以用高速矩陣運算來替代
Lauren avatarLauren2019-08-02
現在智慧型主機的主晶片 都號稱是NPU了
Audriana avatarAudriana2019-08-04
其實就是把CPU&GPU弄成一顆 沒有模擬腦神經這種東西
Charlotte avatarCharlotte2019-08-08
還有OR吧 如果要找極值
Hedy avatarHedy2019-08-12
我以為NPU只是DSP
Ivy avatarIvy2019-08-15
說個笑話,單是台積電一家公司在2018年的營收就已
經破一兆了。AI聯盟合56家廠商之力,“預估”2022
年產值達5000億。所以56家合起來連台積電的一半都
不到,好AI概念股,不買嗎?
Harry avatarHarry2019-08-18
何況這56家大廠也包含台積電,那其他55家“大廠”
還剩多少油水呢?
Ida avatarIda2019-08-20
不管怎樣都要投片 所以台積電穩賺 幫聯電QQ
Caitlin avatarCaitlin2019-08-21
這算出貨文嗎q_q
Yuri avatarYuri2019-08-26
就只是神經網路或演算法的硬體加速器阿,聯盟應該是
想讓這些IP標準化不用大家各搞一套
Ethan avatarEthan2019-08-29
AI晶片有分兩種,一種是CNN加速器,一種是脈衝神經
AI晶片有分兩種,一種是CNN加速器,一種是脈衝神經
網絡。後者更省電,但都是從模型去訓練,硬體能做的
並不多,都需要等算法出來再去實現。
Ethan avatarEthan2019-08-30
Google 的TPU何時要外賣呢?
Sarah avatarSarah2019-09-01
用pca的是早期的face recognition,face detection
不用pca,不過現在都不用這些方法了,現在的ai就是d
l,也就是cnn、rnn、各種nn,ai晶片重點應該不是矩
陣/數值計算,怎麼處理現在超多層的nn比較重要吧
Hamiltion avatarHamiltion2019-09-05
face detection 跟 face recognition 是兩種不同東
西 你會認臉跟會認臉是哪一個人是不一樣的
Puput avatarPuput2019-09-06
eigenface 的確有限制 拍照亮度 跟 臉度角度都會
Edward Lewis avatarEdward Lewis2019-09-07
讓eigenface 誤差很嚴重 不過 eigenface 還是最快
Andy avatarAndy2019-09-08
的演算法 其他作法也是是經過 eigenface 後 再來補
強的
Charlie avatarCharlie2019-09-11
這個聯盟是要聯合採買EDA/IP大家來比堆積木
Olivia avatarOlivia2019-09-14
系統/品牌開規格然後豬屎組樂高交貨
Ethan avatarEthan2019-09-14
好像趕快搶買機台生產面板去賺錢的故事...
Hardy avatarHardy2019-09-15
AI主要是軟體演算,但硬體一樣重要,能再最短時間算出
Mason avatarMason2019-09-16
結果就有優勢,所以~個人淺見,IC設計,代工以及硬體製
Zanna avatarZanna2019-09-20
造,應該都有成長動能